Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Ihr könnt es bereits sehen, ich habe etwas vorbereitet. Es ist im Wesentlichen die Prüfung,
die im StudOn steht. Das ist die Prüfung von vor einem Jahr, also aus dem letzten Sommersemester.
Grundsätzlich bleibt die Prüfung. Das bedeutet, was sind die Prüfungsumstände für euch.
Hilfsmittel, das ist genau das gleiche. Sechs Seiten, drei Blätter vorn und rückseitig
beschrieben oder sechs Seiten jeweils einzeln beschrieben. Wichtig ist, die müssen selbst
handgeschrieben sein, also auch keine Kopien. Die Idee, die dahinter steht, ist ganz einfach,
dass das Ganze soll weniger als Formelsammlung eigentlich dienen, sondern mehr als Lernhilfe.
Wenn ihr es mal irgendwie aufschreibt, dann wird es in der Regel bereits im Hinterkopf hängen bleiben.
Punktemäßig wird auch wieder ungefähr in dem Bereich zu finden sein, das heißt bei 90 Minuten
Prüfungsdauer um die 100 Punkte, vielleicht ein bisschen mehr. Aber auch hier wird so sein,
macht euch keine Gedanken darüber, wenn ihr nicht fertig werdet. Es ist eine Überhangklausur,
das heißt, es ist durchaus gedacht, dass ihr nicht unbedingt alles richtig habt.
Dann gehen wir es einfach mal durch. Es wird diese Aussage dieses Jahr nicht geben,
dass irgendwas für 1.0 ausreicht, sondern wir werden das schauen, wie ihr euch anstellt.
In der Regel 90 Punkte wird auf jeden Fall ausreichen, aber es kann auch sein,
dass die Grenze deutlich drunter liegt. Die Punktegrenzen werden natürlich immer ein
bisschen danach verschoben, wie so der Gesamtschnitt ist. Wenn jetzt natürlich alle Leute eine 90 haben,
dann wirst du mit einer 89 vermutlich nur eine 1.3 kriegen, aber das ist in der Regel unwahrscheinlich.
Okay, ich weiß nicht, da die Prüfung in grob zwei Wochen ist, werdet ihr höchstwahrscheinlich noch
nicht so voll in der Klausurvorbereitung drinstecken. Das heißt, ich werde jetzt
so ein bisschen versuchen, mit euch durchzugehen, die einzelnen Fragen. Ich hoffe, ein paar Antworten
sollten eigentlich inzwischen euch bereits aus den Übungen und aus der Vorlesung mehr oder weniger
in Fleisch und Blut übergegangen sein, sodass die eigentlich ohne große Vorbereitung zu beantworten
sein sollte. Dann gibt es immer ein paar tricky Fragen, da können wir mal gucken, ob jemand drauf
kommt. Also fangen wir doch ganz einfach mal an. Erläutern Sie intuitiv die Bedeutung der Entropie H
von X einer Zufallsvariable in X. Irgendjemand eine Idee, was er hinschreiben würde? Was bedeutet
hohe Entropie? Was bedeutet geringe Entropie? Ich kann mal das Licht hier noch anmachen,
schnell damit ich dann... Ja. Genau. Das war es eigentlich schon. Entropie ist ein Maß für die
Unsicherheit, hohe Entropie. Ich kann wenig über den Ausgang einer Zufallsvariable aussagen.
Niedrige Entropie. Ich kann relativ gut schätzen im Mittel, was später rauskommt. Der Extremfall.
In welchem Fall gilt H von X gleich Null? Also die Entropie gleich Null. Genau. Bei einer
deterministischen Zufallsvariable. Das heißt, im Prinzip ist es keine Zufallsvariable mehr.
Das gleiche Spielchen wird jetzt wiederholt für die Mutual Information zwischen zwei
Zufallsvariablen. Auch wieder zuerst die Frage, was ist eigentlich die Mutual Information? Und
dann der Extremwertfall, wann ist die Mutual Information zwischen zwei Zufallsvariablen Null?
Jemand eine Ahnung für die Aufgabe C? Mutual Information. Genau. Es ist die Information,
die ich über die andere Zufallsvariable erhalte, wenn ich die eine beobachte. Ich sehe Y. Wie
viele Informationen weiß ich daraus über X? Was ergibt sich daraus dann für ein Extremfall?
Wann haben wir keinerlei Mutual Information oder keinerlei wechselseitige Information
zwischen zwei Zufallsvariablen? Genau. Statistische Unabhängigkeit bedeutet, wie der Name natürlich
irgendwie schon vermuten lässt, da kann ich nicht wirklich was darüber sagen. Wenn ich
das eine weiß, weiß ich trotzdem nichts über das andere. Okay, im Folgenden gibt es vier
Ungleichungen. Das ist die 1e. Beziehungsweise Gleichungen oder Ungleichungen. Und die Frage
an euch ist an dieser Stelle immer, ist es ein größer Gleich, ist es ein ist Gleich oder
ist es ein kleiner Gleich? Und aber nicht nur die Frage, was ist es, sondern auch die Frage,
warum ist es so? X und Y seien belebige, diskrete Zufallsvariablen. Keine weiteren Informationen
soweit. H von 5X? Jemand eine Idee? Ja. Warum? Genau. Die Skalierung der Zufallsvariablen
ändert nichts an der Verteilung. Ob ich einen Würfelwürfel und 1, 2, 3, 4, 5, 6 rauskomme
mit einem Sechstel oder ob ich einen Würfelwürfel und die Zufallsvariablen die Werte 6, 12,
Presenters
Zugänglich über
Offener Zugang
Dauer
01:19:30 Min
Aufnahmedatum
2015-07-08
Hochgeladen am
2015-07-09 18:05:42
Sprache
de-DE
Grundlegende Definitionen: Information, Entropie, wechselseitige Information. Quellencodierung zur Datenreduktion: Quellencodierungstheorem, verschiedene verlustfreie Kompressionsverfahren für diskrete Quellen nach Huffman, Tunstall und Lempel-Ziv, Entropie und Codierung für gedächtnisbehaftete Quellen, Markovketten. Kanalcodierung zur zuverlässigen Übertragung über gestörte Kanäle: Kanalmodelle, Kanalkapazität, Kanalcodierungstheorem, Abschätzungen der Fehlerwahrscheinlichkeit, cut-off-Rate, Gallager-Fehlerexponent.